01

您所在的位置:网站首页 82583 网卡 01

01

2023-04-09 16:57| 来源: 网络整理| 查看: 265

目  录

1 概述

1.1 概述

1.2 术语说明

2 安装前的准备工作

2.1 SeerAnalyzer服务器配置需求

2.1.1 硬件配置需求(物理机)

2.1.2 硬件配置需求(虚拟机)

2.1.3 软件配置需求

2.2 SeerCollector采集器的服务器配置需求

2.3 客户端配置需求

2.4 安装环境确认

2.5 SeerAnalyzer网络规划

2.5.1 网络介绍

2.5.2 SeerAnalyzer网络规划

3 安装部署流程概述

4 安装统一数字底盘及其它可选组件

4.1 安装操作系统及Matrix

4.2 安装统一数字底盘

4.3 磁盘RAID和分区

4.3.1 系统盘和ETCD盘RAID和分区规划

4.3.2 数据盘RAID和分区规划

4.4 部署统一数字底盘所需的应用安装包

5 部署SeerAnalyzer

5.1 部署前配置准备

5.1.1 启用网卡(可选)

5.2 部署SeerAnalyzer

6 进入SeerAnalyzer页面

7 软件注册

7.1 注册统一数字底盘

7.2 注册SeerAnalyzer

7.2.1 在License Server上安装授权

7.2.2 获取License授权

8 卸载SeerAnalyzer

9 升级SeerAnalyzer

9.1 E61xx版本到E62xx版本的升级过程

9.2 E62xx版本间的升级过程

10 常见问题解答

 

1 概述 1.1  概述

H3C SeerAnalyzer(分析器,本文简称SeerAnalyzer)聚焦于机器数据的价值挖掘,以大数据技术为基础,通过机器学习、深度学习等手段,从海量数据中分析有价值的信息,为企业网络、业务运维以及商业决策提供参考依据。SeerAnalyzer通过对设备性能、用户接入、业务流量的实时数据采集和状态感知,通过大数据分析技术和人工智能算法,将网络的运行可视化,主动感知网络的潜在风险并自动预警。

SeerAnalyzer支持Campus、WAN、DC、NPA、TRA、LGA等多个场景的数据分析。SeerAnalyzer所分析的数据主要包括:网络设备运行数据、网络业务应用流量数据、用户接入和使用网络的记录数据等。

各场景功能简介:

·     Campus场景:园区分析器以用户体验保障为目的,通过Telemetry采集用户接入和使用网络的指标数据,使用大数据及AI技术分析用户体验健康度及体验问题,并结合网络设备健康度指标数据,关联分析影响用户体验的根因和处理建议。

·     WAN场景:WAN分析器作为广域网智能运维的核心引擎,通过采集状态数据、日志数据、流量数据等多维度网络信息,结合大数据、AI技术对数据进行汇总分析实现智能运维,提供全网健康度测评、应用流分析、容量预测,智能故障诊断等能力,是广域网智能运维的核心引擎。

·     DC场景:数据中心分析器以保障数据中心网络的高可靠、低延时为目的。通过全时全量采集网络设备运行信息,建立起全网的健康度评估体系,支持对数据中心内TCP\UDP的会话分析、应用的可视与分析、芯片级缓存监控和丢包分析。对数据中心网络运维实现了全方位支持与保障。

·     NPA场景:网络性能分析系统(Network Performance Analytics,简称NPA)是SeerAnalyzer中的一个组件,主要利用全流量数据为用户提供面向业务的性能管理,将网络的运维与业务的保障紧密结合。可应用于网络与应用故障鉴责、链路全流量可视分析、业务全路径监控等数字化运维和运营场景。

·     TRA场景:无线轨迹分析系统(Trace Analytics,简称TRA)是SeerAnalyzer中的一个组件,在无线局域网中分析用户终端的轨迹变化情况和人群聚集情况,可应用于园区管理用户行为轨迹,并感知人群聚集热点区域的场景。

·     LGA场景:日志分析系统(Log Analytics,简称LGA)是SeerAnalyzer中的一个组件,作为统一日志管理平台,作为一站式解决日志的采集、解析、存储、搜索、分析、告警、可视化等需求的工具化平台,可应用于基于日志的运维监控与分析、安全审计与合规及各种业务日志分析数字化运维和运营场景。

1.2  术语说明

术语

说明

SeerCollector采集器

如果使用SeerAnalyzer的TCP/UDP流分析、INT流分析功能,需要部署SeerCollector采集器

NPA流量采集器

H3C DATA 网络流量分析一体机(NPA场景必选)

COLLECTOR采集组件

COLLECTOR采集组件为公共采集组件,提供采集服务,包括SNMP、GRPC、NETCONF等协议

 

2 安装前的准备工作 2.1  SeerAnalyzer服务器配置需求

SeerAnalyzer基于统一数字底盘部署,支持物理机部署和虚拟机部署,推荐部署在物理服务器上。支持两种部署模式(单机模式和集群模式),相关说明如表2-1所示。

表2-1 部署说明

部署模式

所需服务器数量(台)

部署说明

单机模式

1

1台服务器作为Master节点部署统一数字底盘,并将SeerAnalyzer部署在统一数字底盘上

当网络规模较小且不要求高可靠性的场景才可以采用单机模式

集群模式

3+N

3台服务器作为Master节点部署统一数字底盘。

·     当SeerAnalyzer独立部署时:

¡     3+N(N≥0)模式:支持SeerAnalyzer部署在任意指定的3个Master节点+N(N≥0)个Worker节点上

·     当控制器与SeerAnalyzer融合部署时:

¡     3机模式:控制器和SeerAnalyzer融合部署在同一套统一数字底盘集群的3个Master节点上

¡     3+1模式:统一数字底盘和控制器部署在3个Master节点上,SeerAnalyzer部署在一个Worker节点上

¡     3+N(N≥3)模式:统一数字底盘和控制器部署在3个Master节点上,SeerAnalyzer部署在N个Worker节点上

 

对于不同的场景和网络规模,SeerAnalyzer所分析的业务量存在较大的差异。其中,产生大业务量的主要是网络业务应用流量数据。SeerAnalyzer支持独立部署,同时支持与场景组件融合部署。

硬件配置需求,是在部署基础平台及对应场景组件的环境中,仅根据分析器所能够承载的业务量评估的结果,如需考虑场景组件所能承载的业务量,请进一步评估硬件资源需求。不同的业务量所需的硬件配置有差异。

注意

·     对于安装部署统一数字底盘的服务器,其CPU架构需为x86-64(Intel64/AMD64),系统硬盘为HDD(SAS/SATA)硬盘或SSD硬盘,数据硬盘可采用SSD固态硬盘或机械硬盘(SATA/SAS),磁盘条件允许时建议RAID5。RAID卡不低于1GB写缓存,支持数据掉电保护,并且服务器必须支持安装CentOS 7.6及以上版本的操作系统。

·     分析器不同版本适配的CPU架构型号不同,具体请关注版本配套发布的文件。

·     数据盘总容量一定的情况下,磁盘数量越多读写性能越好,例如:6块2TB的硬盘读写性能优于3块4TB的硬盘。

·     如果使用SeerAnalyzer的TCP流分析、INT流分析功能,需要部署SeerCollector采集器。请参见“2.2  SeerCollector采集器的服务器配置需求”。

·     NPA场景所需的NPA流量采集器基于独立的服务器部署,具体部署方法请参见《H3C NPA流量采集器部署指导》。

 

2.1.1  硬件配置需求(物理机) 1. Campus场景硬件配置需求

表2-2 Campus场景统一数字底盘+SeerAnalyzer服务器节点硬件配置需求(单机部署)

硬件节点配置

可支持最大管理规模

节点名称

节点配置数量

单节点详细配置

分析节点

1

·     CPU:20核(总物理核数),2.0GHz主频及以上

·     内存:192G及以上

·     系统盘:2.4TB(RAID后容量)及以上

·     数据盘:2TB(RAID后容量)及以上,需要2块及以上同型硬盘

·     ETCD盘:50GB(RAID后容量)及以上,安装路径:/var/lib/etcd

·     RAID卡:1GB Cache以上,支持数据掉电保护且超级电容必须在位

·     网口:

¡     普通模式:2个网口,2*10Gbps及以上带宽

¡     冗余模式(工作模式推荐配置为mode2或mode4):4个网口,4*10Gbps及以上带宽,每2个网口组成1组Linux Bonding:2*10Gbps + 2*10Gbps

·     在线用户:2000

·     Switch+AC+AP:400

1

·     CPU:20核(总物理核数),2.0GHz主频及以上

·     内存:192G及以上

·     系统盘:2.4TB(RAID后容量)及以上

·     数据盘:2TB(RAID后容量)及以上,需要2块及以上同型硬盘

·     ETCD盘:50GB(RAID后容量)及以上,安装路径:/var/lib/etcd

·     RAID卡:1GB Cache以上,支持数据掉电保护且超级电容必须在位

·     网口:

¡     普通模式:2个网口,2*10Gbps及以上带宽

¡     冗余模式(工作模式推荐配置为mode2或mode4):4个网口,4*10Gbps及以上带宽,每2个网口组成1组Linux Bonding:2*10Gbps + 2*10Gbps

·     在线用户:5000

·     Switch+AC+AP:1000

1

·     CPU:20核(总物理核数),2.0GHz主频及以上

·     内存:192G及以上

·     系统盘:2.4TB(RAID后容量)及以上

·     数据盘:3TB(RAID后容量)及以上,需要2块及以上同型硬盘

·     ETCD盘:50GB(RAID后容量)及以上,安装路径:/var/lib/etcd

·     RAID卡:1GB Cache以上,支持数据掉电保护且超级电容必须在位

·     网口:

¡     普通模式:2个网口,2*10Gbps及以上带宽

¡     冗余模式(工作模式推荐配置为mode2或mode4):4个网口,4*10Gbps及以上带宽,每2个网口组成1组Linux Bonding:2*10Gbps + 2*10Gbps

·     在线用户:10000

·     Switch+AC+AP:2000

1

·     CPU:24核(总物理核数),2.0GHz主频及以上

·     内存:224G及以上

·     系统盘:3TB(RAID后容量)及以上

·     数据盘:4TB(RAID后容量)及以上,需要3块及以上同型硬盘

·     ETCD盘:50GB(RAID后容量)及以上,安装路径:/var/lib/etcd

·     RAID卡:1GB Cache以上,支持数据掉电保护且超级电容必须在位

·     网口:

¡     普通模式:2个网口,2*10Gbps及以上带宽

¡     冗余模式(工作模式推荐配置为mode2或mode4):4个网口,4*10Gbps及以上带宽,每2个网口组成1组Linux Bonding:2*10Gbps + 2*10Gbps

·     在线用户:20000

·     Switch+AC+AP:4000

1

·     CPU:28核(总物理核数),2.0GHz主频及以上

·     内存:256G及以上

·     系统盘:3TB(RAID后容量)及以上

·     数据盘:5TB(RAID后容量)及以上,需要4块及以上同型硬盘

·     ETCD盘:50GB(RAID后容量)及以上,安装路径:/var/lib/etcd

·     RAID卡:1GB Cache以上,支持数据掉电保护且超级电容必须在位

·     网口:

¡     普通模式:2个网口,2*10Gbps及以上带宽

¡     冗余模式(工作模式推荐配置为mode2或mode4):4个网口,4*10Gbps及以上带宽,每2个网口组成1组Linux Bonding:2*10Gbps + 2*10Gbps

·     在线用户:40000

·     Switch+AC+AP:8000

1

·     CPU:32核(总物理核数),2.0GHz主频及以上

·     内存:288G及以上

·     系统盘:3TB(RAID后容量)及以上

·     数据盘:7TB(RAID后容量)及以上,需要5块及以上同型硬盘

·     ETCD盘:50GB(RAID后容量)及以上,安装路径:/var/lib/etcd

·     RAID卡:1GB Cache以上,支持数据掉电保护且超级电容必须在位

·     网口:

¡     普通模式:2个网口,2*10Gbps及以上带宽

¡     冗余模式(工作模式推荐配置为mode2或mode4):4个网口,4*10Gbps及以上带宽,每2个网口组成1组Linux Bonding:2*10Gbps + 2*10Gbps

·     在线用户:60000

·     Switch+AC+AP:12000

1

·     CPU:40核(总物理核数),2.0GHz主频及以上

·     内存:384G及以上

·     系统盘:3TB(RAID后容量)及以上

·     数据盘:11TB(RAID后容量)及以上,需要8块及以上同型硬盘

·     ETCD盘:50GB(RAID后容量)及以上,安装路径:/var/lib/etcd

·     RAID卡:1GB Cache以上,支持数据掉电保护且超级电容必须在位

·     网口:

¡     普通模式:2个网口,2*10Gbps及以上带宽

¡     冗余模式(工作模式推荐配置为mode2或mode4):4个网口,4*10Gbps及以上带宽,每2个网口组成1组Linux Bonding:2*10Gbps + 2*10Gbps

·     在线用户:100000

·     Switch+AC+AP:20000

 

表2-3 Campus场景统一数字底盘+SeerAnalyzer服务器节点硬件配置需求(集群部署)

硬件节点配置

可支持最大管理规模

节点名称

节点配置数量

单节点详细配置

分析节点

3

·     CPU:20核(总物理核数),2.0GHz主频及以上

·     内存:128G及以上

·     系统盘:2.4TB(RAID后容量)及以上

·     数据盘:2TB(RAID后容量)及以上,需要2块及以上同型硬盘

·     ETCD盘:50GB(RAID后容量)及以上,安装路径:/var/lib/etcd

·     RAID卡:1GB Cache以上,支持数据掉电保护且超级电容必须在位

·     网口:

¡     普通模式:2个网口,2*10Gbps及以上带宽

¡     冗余模式(工作模式推荐配置为mode2或mode4):4个网口,4*10Gbps及以上带宽,每2个网口组成1组Linux Bonding:2*10Gbps + 2*10Gbps

·     在线用户:2000

·     Switch+AC+AP:400

3

·     CPU:20核(总物理核数),2.0GHz主频及以上

·     内存:128G及以上

·     系统盘:2.4TB(RAID后容量)及以上

·     数据盘:2TB(RAID后容量)及以上,需要2块及以上同型硬盘

·     ETCD盘:50GB(RAID后容量)及以上,安装路径:/var/lib/etcd

·     RAID卡:1GB Cache以上,支持数据掉电保护且超级电容必须在位

·     网口:

¡     普通模式:2个网口,2*10Gbps及以上带宽

¡     冗余模式(工作模式推荐配置为mode2或mode4):4个网口,4*10Gbps及以上带宽,每2个网口组成1组Linux Bonding:2*10Gbps + 2*10Gbps

·     在线用户:5000

·     Switch+AC+AP:1000

3

·     CPU:20核(总物理核数),2.0GHz主频及以上

·     内存:128G及以上

·     系统盘:2.4TB(RAID后容量)及以上

·     数据盘:2TB(RAID后容量)及以上,需要2块及以上同型硬盘

·     ETCD盘:50GB(RAID后容量)及以上,安装路径:/var/lib/etcd

·     RAID卡:1GB Cache以上,支持数据掉电保护且超级电容必须在位

·     网口:

¡     普通模式:2个网口,2*10Gbps及以上带宽

¡     冗余模式(工作模式推荐配置为mode2或mode4):4个网口,4*10Gbps及以上带宽,每2个网口组成1组Linux Bonding:2*10Gbps + 2*10Gbps

·     在线用户:10000

·     Switch+AC+AP:2000

3

·     CPU:20核(总物理核数),2.0GHz主频及以上

·     内存:160G及以上

·     系统盘:3TB(RAID后容量)及以上

·     数据盘:3TB(RAID后容量)及以上,需要3块及以上同型硬盘

·     ETCD盘:50GB(RAID后容量)及以上,安装路径:/var/lib/etcd

·     RAID卡:1GB Cache以上,支持数据掉电保护且超级电容必须在位

·     网口:

¡     普通模式:2个网口,2*10Gbps及以上带宽

¡     冗余模式(工作模式推荐配置为mode2或mode4):4个网口,4*10Gbps及以上带宽,每2个网口组成1组Linux Bonding:2*10Gbps + 2*10Gbps

·     在线用户:20000

·     Switch+AC+AP:4000

3

·     CPU:24核(总物理核数),2.0GHz主频及以上

·     内存:192G及以上

·     系统盘:3TB(RAID后容量)及以上

·     数据盘:4TB(RAID后容量)及以上,需要3块及以上同型硬盘

·     ETCD盘:50GB(RAID后容量)及以上,安装路径:/var/lib/etcd

·     RAID卡:1GB Cache以上,支持数据掉电保护且超级电容必须在位

·     网口:

¡     普通模式:2个网口,2*10Gbps及以上带宽

¡     冗余模式(工作模式推荐配置为mode2或mode4):4个网口,4*10Gbps及以上带宽,每2个网口组成1组Linux Bonding:2*10Gbps + 2*10Gbps

·     在线用户:40000

·     Switch+AC+AP:8000

3

·     CPU:28核(总物理核数),2.0GHz主频及以上

·     内存:224G及以上

·     系统盘:3TB(RAID后容量)及以上

·     数据盘:5TB(RAID后容量)及以上,需要4块及以上同型硬盘

·     ETCD盘:50GB(RAID后容量)及以上,安装路径:/var/lib/etcd

·     RAID卡:1GB Cache以上,支持数据掉电保护且超级电容必须在位

·     网口:

¡     普通模式:2个网口,2*10Gbps及以上带宽

¡     冗余模式(工作模式推荐配置为mode2或mode4):4个网口,4*10Gbps及以上带宽,每2个网口组成1组Linux Bonding:2*10Gbps + 2*10Gbps

·     在线用户:60000

·     Switch+AC+AP:12000

3

·     CPU:32核(总物理核数),2.0GHz主频及以上

·     内存:256G及以上

·     系统盘:3TB(RAID后容量)及以上

·     数据盘:8TB(RAID后容量)及以上,需要6块及以上同型硬盘

·     ETCD盘:50GB(RAID后容量)及以上,安装路径:/var/lib/etcd

·     RAID卡:1GB Cache以上,支持数据掉电保护且超级电容必须在位

·     网口:

¡     普通模式:2个网口,2*10Gbps及以上带宽

¡     冗余模式(工作模式推荐配置为mode2或mode4):4个网口,4*10Gbps及以上带宽,每2个网口组成1组Linux Bonding:2*10Gbps + 2*10Gbps

·     在线用户:100000

·     Switch+AC+AP:20000

 

2. DC场景硬件配置需求

表2-4 DC场景统一数字底盘+SeerAnalyzer服务器节点硬件配置需求(单机部署)

硬件节点配置

可支持最大设备数量

可支持最大TCP连接数

备注

节点名称

节点配置数量

单节点详细配置

分析节点

1

·     CPU:20核(总物理核数),2.0GHz主频及以上

·     内存:256GB及以上

·     系统盘:1.92TB(RAID后容量)及以上,推荐使用SSD固态硬盘或7.2K RPM以上HDD机械硬盘,IOPS至少5000次/s

·     数据盘:8TB(RAID后容量)及以上,需要3块及以上同型硬盘,推荐使用SSD固态硬盘,IOPS至少5000次/s

·     ETCD盘:配置RAID后容量50GB及以上,SSD固态硬盘,安装路径:/var/lib/etcd

·     RAID卡:1GB Cache以上,支持数据掉电保护且超级电容必须在位

·     网口(冗余模式):4个网口,4*10Gbps及以上带宽,每2个网口组成1组Linux Bonding:2*10Gbps + 2*10Gbps

50

1000VM,约2000TCP流/秒

按每个VM 2条TCP流/秒

 

系统盘最小可配置960GB

 

表2-5 DC场景统一数字底盘+SeerAnalyzer服务器节点硬件配置需求(集群部署)

硬件节点配置

可支持最大设备数量

可支持最大TCP连接数

备注

节点名称

节点配置数量

单节点详细配置

分析节点

3

·     CPU:20核(总物理核数),2.0GHz主频以上

·     内存:192GB及以上

·     系统盘:1.92TB(RAID后容量)及以上,推荐使用SSD固态硬盘或7.2K RPM以上HDD机械硬盘,IOPS至少5000次/s

·     数据盘:数据盘:8TB(RAID后容量)及以上,需要3块及以上同型硬盘,推荐使用SSD固态硬盘,IOPS至少5000次/s

·     ETCD盘:50GB(RAID后容量)及以上,SSD固态硬盘,安装路径:/var/lib/etcd

·     RAID卡:1GB Cache以上,支持数据掉电保护且超级电容必须在位

·     网口:

¡     普通模式:2个网口,2*10Gbps及以上带宽

¡     冗余模式(工作模式推荐配置为mode2或mode4):4个网口,4*10Gbps及以上带宽,每2个网口组成1组Linux Bonding:2*10Gbps + 2*10Gbps

50

1000VM,约2000TCP流/秒

按每个VM 2条TCP流/秒

3

·     CPU:24核(总物理核数),2.0GHz主频以上

·     内存:256GB及以上

·     系统盘:1.92TB(RAID后容量)及以上,推荐使用SSD固态硬盘或7.2K RPM以上HDD机械硬盘,IOPS至少5000次/s

·     数据盘:12TB(RAID后容量)及以上,需要5块及以上同型硬盘,推荐使用SSD固态硬盘,IOPS至少5000次/s

·     ETCD盘:50GB(RAID后容量)及以上,SSD固态硬盘,安装路径:/var/lib/etcd

·     RAID卡:1GB Cache以上,支持数据掉电保护且超级电容必须在位

·     网口:

¡     普通模式:2个网口,2*10Gbps及以上带宽

¡     冗余模式(工作模式推荐配置为mode2或mode4):4个网口,4*10Gbps及以上带宽,每2个网口组成1组Linux Bonding:2*10Gbps + 2*10Gbps

100

2000VM,约4000TCP流/秒

按每个VM 2条TCP流/秒

3

·     CPU:32核(总物理核数),2.0GHz主频以上

·     内存:256GB以上

·     系统盘:1.92TB(RAID后容量)及以上,推荐使用SSD固态硬盘或7.2K RPM以上HDD机械硬盘,IOPS至少5000次/s

·     数据盘:24TB(RAID后容量)及以上,需要7块及以上同型硬盘,推荐使用SSD固态硬盘,IOPS至少5000次/s

·     ETCD盘:50GB(RAID后容量)及以上,SSD固态硬盘,安装路径:/var/lib/etcd

·     RAID卡:1GB Cache以上,支持数据掉电保护且超级电容必须在位

·     网口:

¡     普通模式:2个网口,2*10Gbps及以上带宽

¡     冗余模式(工作模式推荐配置为mode2或mode4):4个网口,4*10Gbps及以上带宽,每2个网口组成1组Linux Bonding:2*10Gbps + 2*10Gbps

200

5000VM,约10000TCP流/秒

按每个VM 2条TCP流/秒

 

说明

可根据整个数据中心VM的总数量、按每个VM 2条TCP流/秒,计算整体的TCP流大小,来判断所需使用的硬件配置规格。

 

3. WAN场景硬件配置需求

在WAN场景中,分析器不支持独立部署,仅支持控制器和分析器融合部署,并且需要优先安装控制器。对于与控制器融合部署的硬件配置,请参见《AD-NET解决方案硬件配置指导》。

4. NPA场景硬件配置需求

表2-6 独立单机部署配置要求(x86-64(Intel64/AMD64)架构)(统一数字底盘+SeerAnalyzer-NPA)

硬件节点配置

适用业务量

节点名称

节点配置数量

单节点详细配置

分析节点

1

·     CPU:32核(总物理核数),2.0GHz主频以上

·     内存:256GB及以上

·     系统盘:1.92TB(RAID后容量)及以上,推荐使用SSD固态硬盘或7.2K RPM以上HDD机械硬盘,IOPS至少5000次/s

·     数据盘:8TB(RAID后容量)及以上,建议采用5块同型硬盘,推荐使用SSD固态硬盘,IOPS至少5000次/s

·     ETCD盘:配置RAID后容量50GB及以上,安装路径:/var/lib/etcd

·     RAID卡:1GB Cache以上,支持数据掉电保护且超级电容必须在位

·     网口:

¡     普通模式:2个网口,2*10Gbps及以上带宽

¡     冗余模式(工作模式推荐配置为mode2或mode4):4个网口,4*10Gbps及以上带宽,每2个网口组成1组Linux Bonding:2*10Gbps + 2*10Gbps

采集器10台、80条链路

即:采集器数量≤10台且链路数≤80条

 

表2-7 独立集群部署配置要求(x86-64(Intel64/AMD64)架构)(统一数字底盘+SeerAnalyzer-NPA)

硬件节点配置

适用业务量

节点名称

节点配置数量

单节点详细配置

分析节点

≥3

·     CPU:24核(总物理核数),2.0GHz主频以上

·     内存:128GB及以上

·     系统盘:1.92TB(RAID后容量)及以上,推荐使用SSD固态硬盘或7.2K RPM以上HDD机械硬盘,IOPS至少5000次/s

·     数据盘:8TB(RAID后容量)及以上,建议采用5块同型硬盘,推荐使用SSD固态硬盘,IOPS至少5000次/s

·     ETCD盘:配置RAID后容量50GB及以上,安装路径:/var/lib/etcd

·     RAID卡:1GB Cache以上,支持数据掉电保护且超级电容必须在位

·     网口:

¡     普通模式:2个网口,2*10Gbps及以上带宽

¡     冗余模式(工作模式推荐配置为mode2或mode4):4个网口,4*10Gbps及以上带宽,每2个网口组成1组Linux Bonding:2*10Gbps + 2*10Gbps

采集器10台、80条链路

即:采集器数量≤10台且链路数≤80条

分析节点

≥3

·     CPU:32核(总物理核数),2.0GHz主频以上

·     内存:256GB及以上

·     系统盘:1.92TB(RAID后容量)及以上,推荐使用SSD固态硬盘或7.2K RPM以上HDD机械硬盘,IOPS至少5000次/s

·     数据盘:8TB(RAID后容量)及以上,建议采用5*块同型硬盘,推荐使用SSD固态硬盘,IOPS至少5000次/s

·     ETCD盘:配置RAID后容量50GB及以上,安装路径:/var/lib/etcd

·     RAID卡:1GB Cache以上,支持数据掉电保护且超级电容必须在位

·     网口:

¡     普通模式:2个网口,2*10Gbps及以上带宽

¡     冗余模式(工作模式推荐配置为mode2或mode4):4个网口,4*10Gbps及以上带宽,每2个网口组成1组Linux Bonding:2*10Gbps + 2*10Gbps

采集器20台、160条链路

即:采集器数量≤20台且链路数≤160条

 

表2-8 NPA采集器部署硬件配置需求

属性

一体机硬件配置

适用业务量

NPA采集器节点(10Gb)

流量分析一体机-10Gb-高配

·     CPU:16核(2*8核)2.0GHz主频以上  X86 series-FC-LGA3647-2.1GHz(8C)-85W-4208 CLX

·     内存:64G

·     系统盘:300GB(RAID1后容量)需要2块及以上

·     数据盘:10TB (RAID5后容量)  需要6块及以上

·     RAID卡:2GB Cache及以上,支持数据掉电保护且超级电容必须在位。(推荐UN-RAID-2000-M2、UN-HBA-1000-M2)

·     网卡:4GE千兆电口,2SFP+万兆光口(支持DPDK,推荐Intel I350芯片、Intel 82599芯片

·     10Gbps流量

·     支持存储1个月会话数据

·     部署管理]菜单项,进入部署管理页面。

(2)     单击“智能分析引擎”左侧的图标,展开组件信息。

图9-7 部署管理页面-展开组件信息

 

(3)     单击Analyzer-组件“操作”区段的按钮,进入升级页面。

图9-8 升级页面

 

(4)     单击按钮,上传待升级的安装包。

(5)     安装包上传成功后,勾选安装包,单击页面下方的按钮,完成组件升级。

说明

·     SeerAnalyzer暂不支持升级失败后的回滚操作。

·     对SeerAnalyzer整体升级,即所有组件全部升级,可以跨版本升级,版本号统一变成升级后的版本号。

·     对SeerAnalyzer整体升级时,必须先升级Analyzer-Collector组件,然后升级Analyzer-Platform基础组件,再升级Analyzer-Telemetry组件,最后升级其它组件(无顺序要求)。

·     升级Analyzer-Platform基础组件后,在任务管理模块下的flink类型的任务,任务参数(taskmanager进程内存限制、taskmanager容器内存限制、taskmanager容器cpu限制、taskmanager slot数、taskmanager副本数、并行度)会恢复成默认值。

 

10 常见问题解答 1. 节点中存在多个网卡配置IP地址并且网卡UP时,如何增加安全策略?

(1)     登录Matrix,点击“部署”页签,在弹出的菜单中选择“安全 > 安全策略”选项,进入安全策略页面。

(2)     单击按钮,进入增加安全策略页面。

(3)     在“基本设置”区域配置默认动作为“允许”。

(4)     在“规则信息”区域单击按钮,在弹出窗口中配置如下规则:

¡     源地址为节点上除Matrix使用的网卡外的其它网卡IP。

¡     协议类型为TCP。

¡     目标端口必须输入为:

8101,44444,2379,2380,8088,6443,10251,10252,10250,10255,10256。

¡     动作为允许。

(5)     配置完成后单击按钮。

说明

必须将所有节点上除Matrix使用的网卡外的其它网卡IP都加入到安全策略中。

例如节点1上除Matrix使用的网卡外还有一个网卡的IP为1.1.1.1,节点2上除Matrix使用的网卡外的网卡IP为2.2.2.2,节点3上除Matrix使用的网卡外的网卡IP为3.3.3.3,则需要在安全策略的规则中增加3条规则,源地址分别为1.1.1.1、2.2.2.2、3.3.3.3,协议类型都是TCP,目标端口都是“8101,44444,2379,2380,8088,6443,10251,10252,10250,10255,10256”,动作都为允许。

 

图10-1 安全策略举例

 

(6)     开启被关掉的网卡,下面以eth33为例。

[root@node01 ~]# ifup eth33

2. 如何更换集群节点ssh端口? 新安装场景修改ssh端口:

(1)     节点上安装操作系统完成后,修改所有节点ssh端口

修改/etc/ssh/sshd_config配置文件。

将#Port 22改为想要修改的端口,如Port 2244。

重启sshd服务:

systemctl restart sshd.service

查看新端口是否监听:

netstat –anp | grep –w 2244

(2)     使用vim /opt/matrix/config/navigator_config.json命令进入navigator_config文件,查看该文件中是否存在sshPort字段,若存在,将该字段取值修改为用户想要指定的端口号(以12345为例);若不存在,则需手动添加该字段并为其赋值。

{

"productName": "uc",

"pageList": ["SYS_CONFIG", "DEPLOY", "APP_DEPLOY"],

"defaultPackages": ["common_PLAT_GlusterFS_2.0_E0707_x86.zip", "general_PLAT_portal_2.0_E0707_x86.zip", "general_PLAT_kernel_2.0_E0707_x86.zip"],

"url": "http://${vip}:30000/central/index.html#/ucenter-deploy",

"theme":"darkblue",

"matrixLeaderLeaseDuration": 30,

"matrixLeaderRetryPeriod": 2,

"sshPort": 12345

}

(3)     修改完成后,需重启Matrix服务

[root@node-worker ~]# systemctl restart matrix

(4)     查看新的端口号是否修改成功,若成功,则日志中最后一条信息如下。

[root@node-worker ~]# cat /var/log/matrix-diag/Matrix/Matrix/matrix.log | grep "ssh port"

2022-03-24T03:46:22,695 | INFO  | FelixStartLevel  | CommonUtil.start:232 | ssh port = 12345.

说明

ssh_port说明:

·     此端口为ssh远程其他节点端口,所以必须保证集群中所有节点(包括Master和Worker),只能使用统一的ssh端口。

·     务必同时重启所有节点Matrix服务,Matrix服务会读取配置文件中ssh端口。

 

(5)     部署Matrix

参照Matrix安装部署指导部署Matrix。

环境升级后修改ssh端口:

说明

统一数字底盘和分析器需升级为支持ssh端口修改的版本(E6215及更高版本),在未升级到支持ssh端口修改版本之前请不要更改ssh 默认端口,升级完成后方可参照上述(1)、(2)、(3)步骤修改ssh端口。

 

3. 由旧版本升级至E6203之后,在终端分析下原有终端组显示不出数据,单击提示“网段已被删除,没有数据!”?

NPA场景下,由于E6203版本终端分析功能发生变化:配置中终端组对应的网段数量,从原来版本多个限制到当前只能绑定一个网段。因此如果原版本中,终端分析配置终端组是绑定了多个网段,需要在升级之后,进入[分析选项>网流分析配置>终端组配置]页面,重新编辑终端组,将网段分配到不同组中。

4. 组件部署或升级失败?

分析器组件在部署或升级的过程中可能因为超时导致部署或升级失败,建议重试或终止升级后重试。若重试依旧失败,需要联系技术服务人员协助定位问题。

5. 园区场景单机融合部署时如何调整集群最大微服务数量限制?

统一数字底盘采用Kubernetes+Docker的微服务技术架构,当前底盘默认对微服务数量的限制是不超过300个,在园区场景单机融合部署时(指单机部署园区管控析全套产品:统一数字底盘+vDHCP+SE+EIA+WSM+SA),微服务数量会超过该限制,需要对Kubernetes启动参数进行调整,当前微服务数量不会超过400个,具体操作步骤如下:

(1)     首先确认当前单机环境已部署Matrix,且系统运行正常。

(2)     进入后台命令行,编辑Kubernetes的配置文件:

vi /etc/systemd/system/kubelet.service.d/10-kubeadm.conf

将—max-pods=300改为—max-pods=400

(3)     保存配置文件之后,重启kubelet服务即可生效

systemctl restart kubelet



【本文地址】


今日新闻


推荐新闻


CopyRight 2018-2019 办公设备维修网 版权所有 豫ICP备15022753号-3